((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) (Ajout de détails sur la procédure judiciaire, paragraphe 5)
Microsoft MSFT.O a déposé mardi un mémoire en soutien à l'action en justice d'Anthropic demandant au tribunal de bloquer temporairement la désignation par le ministère américain de la Défense de la startup d'intelligence artificielle comme présentant un risque pour la chaîne d'approvisionnement.
Dans un mémoire d'amicus curiae déposé auprès d'un tribunal fédéral de San Francisco, Microsoft a soutenu la demande d'Anthropic visant à obtenir une ordonnance restrictive temporaire contre l'ordonnance du Pentagone, arguant que sa détermination devrait être suspendue pendant que le tribunal examine l'affaire.
Microsoft, qui intègre les produits et services du laboratoire d'IA dans la technologie qu'elle fournit à l'armée américaine, a déclaré qu'elle était directement touchée par la désignation du ministère de la défense.
Lundi, le fabricant de Claude a intenté une action en justice pour empêcher le Pentagone de l'inscrire sur une liste noire de sécurité nationale, intensifiant ainsi la bataille avec l'armée américaine au sujet des restrictions d'utilisation de sa technologie. Microsoft a fait valoir que l'ordonnance de suspension était nécessaire pour éviter des perturbations coûteuses pour les fournisseurs, qui devraient sinon reconstruire rapidement les offres qui reposent sur les produits d'Anthropic. Le juge chargé de l'affaire doit approuver la demande de Microsoft de déposer le mémoire avant qu'il ne soit officiellement enregistré, mais les tribunaux autorisent souvent des parties extérieures à intervenir dans des affaires importantes.
Alors que le Pentagone s'est donné six mois pour éliminer Anthropic, il n'a pas prévu la même période de transition pour les entrepreneurs qui utilisent les produits ou services d'Anthropic dans le cadre de leurs activités pour le compte du ministère de la défense, a déclaré Microsoft.
"Si cette action se poursuit sans qu'une ordonnance d'interdiction temporaire ne soit rendue, Microsoft et d'autres sous-traitants du gouvernement ayant une expertise dans le développement de solutions pour soutenir les missions du gouvernement américain seront obligés de prendre en compte un nouveau risque dans leur planification commerciale", a déclaré l'entreprise.
Microsoft a ajouté qu'une injonction temporaire permettrait de négocier une solution tout en protégeant l'accès des militaires aux technologies de pointe et en veillant à ce que l'IA ne soit pas utilisée à des fins de surveillance domestique de masse ou pour déclencher une guerre sans contrôle humain.
Lundi, un groupe de 37 chercheurs et ingénieurs d'OpenAI et de Google a également déposé un mémoire d'amicus curiae en faveur d'Anthropic.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer